Selecteer taal

Dutch

Down Icon

Selecteer land

Mexico

Down Icon

"Het is een illusie": een onderzoek van Apple ontkracht de grootste mythe over kunstmatige intelligentie.

"Het is een illusie": een onderzoek van Apple ontkracht de grootste mythe over kunstmatige intelligentie.

Apple veroorzaakte een paar dagen geleden een controverse in de wereld van kunstmatige intelligentie (AI) met de publicatie van een onderzoek dat zich rechtstreeks richt op een van de discursieve pijlers van deze technologie: het veronderstelde vermogen van modellen als ChatGPT om te 'redeneren'.

In het artikel , getiteld The Illusion of Thinking , wordt betoogd dat generatieve AI-systemen, ondanks hun schijn, niet denken of redeneren zoals mensen , en dat zelfs de ‘redenering’ die ze lijken te vertonen contraproductief kan zijn .

Het onderzoek, uitgevoerd door wetenschappers van Apple Machine Learning Research , komt op een moment dat het bedrijf uit Cupertino achter lijkt te lopen op concurrenten zoals OpenAI , Google en Anthropic, koplopers in de ontwikkeling van geavanceerde taalmodellen.

Daarom beschouwden veel waarnemers het onderzoek al snel als een poging om externe verhalen ter discussie te stellen, en niet als een puur academische bijdrage.

Toch is de inhoud van het werk niet onopgemerkt gebleven. Apple stelt een nieuwe categorie modellen voor, genaamd Large Reasoning Models (LRM's) , die ontworpen zijn om tussentijdse redeneringen te genereren voordat er een antwoord wordt gegeven. Het doel: evalueren of de expliciete opname van logische processen de AI-prestaties bij verschillende soorten taken verbetert.

Waarom Apple beweert dat modellen als ChatGPT niet denken

"The Illusion of Thinking": het artikel waarmee Apple probeert AI te ontmaskeren.

Om vertekeningen te voorkomen die voortkwamen uit de data die tijdens de training waren verzameld , onderwierpen de onderzoekers deze modellen aan een reeks synthetische puzzels , zoals de klassieke Toren van Hanoi, Checker Jumping, rivierkruisingen en blokmanipulatieproblemen (Blocks World). Deze scenario's waren specifiek ontworpen om logisch denken en stapsgewijze planning te vereisen.

De resultaten waren verrassend: hoewel LRM's een voordeel lieten zien ten opzichte van traditionele modellen bij uitdagingen van gemiddelde complexiteit, zakten ze volledig in elkaar toen de moeilijkheidsgraad werd verhoogd .

Bovendien werd deze ineenstorting niet veroorzaakt door een gebrek aan computerkracht, maar door een veel raadselachtiger fenomeen: "Hun redeneerinspanning neemt toe naarmate het probleem complexer wordt, tot op zekere hoogte, en neemt vervolgens af, ondanks dat ze over een toereikend budget beschikken."

Opvallend is dat de redeneermodellen bij eenvoudige tests zelfs slechter presteren dan de standaardmodellen . Wanneer taken geen geavanceerde logica vereisen, kan overdenken een belemmering vormen .

"Onderzoek naar de eerste mislukte zet van de modellen bracht verrassend gedrag aan het licht. Zo konden ze bijvoorbeeld wel 100 zetten goed doen bij de Toren van Hanoi, maar faalden ze bij de Rivieroversteekpuzzel in meer dan 5 zetten", voegen de auteurs toe.

Al met al lijkt het onderzoek de steeds algemenere veronderstelling dat we op de drempel staan ​​van kunstmatige intelligentie (AI) op menselijk niveau, of zelfs AGI ( Artificial General Intelligence ), uit te dagen.

Apple suggereert dat dit idee op een illusie berust: de illusie dat het vermogen van de modellen om logische stappen te verwoorden, wordt verward met een echt begrip van de problemen.

In die zin is de conclusie van het werk categorisch: wat redenering lijkt, is niets meer dan de echo van aangeleerde patronen . AI redeneert, althans voorlopig, niet: het simuleert . En wanneer de simulatie voorbij de bekende grenzen wordt gedreven, stort ze in .

Apple loopt achter in de AI-race

Apple heeft nog geen eigen model gelanceerd dat op gelijke voet kan concurreren. (Foto: Reuters) Apple heeft nog geen eigen model gelanceerd dat op gelijke voet kan concurreren. (Foto: Reuters)

Deze visie contrasteert met de aanpak van andere techgiganten, die expliciet redeneerfuncties in hun modellen hebben opgenomen. OpenAI met GPT-4 , Google met Gemini en Anthropic met Claude streven er allemaal naar deze mogelijkheden te versterken, wat gezien wordt als een stap in de richting van autonomere en betrouwbaardere systemen.

Aan de kritische kant waren er veel stemmen die erop wezen dat Apple's onderzoek geen grote fout aan het licht brengt, maar simpelweg een bekend fenomeen beschrijft: overdenken . Dat wil zeggen, de neiging van sommige modellen om onnodig lange en complexe redeneringen te genereren , wat kan leiden tot fouten of crashes.

Er zijn ook vragen of Apple, zonder eigen AI die gelijkwaardig is aan die van zijn concurrenten , een reden heeft om de vooruitgang van anderen in diskrediet te brengen. Het bedrijf onderhoudt partnerschappen met spelers zoals OpenAI, maar heeft nog geen eigen taalmodel gelanceerd dat op gelijke voet concurreert.

Los van de intenties achter het artikel, is de waarheid dat Apple erin geslaagd is een belangrijke discussie op tafel te brengen: wat betekent "denken" eigenlijk voor kunstmatige intelligentie? Verwarren we vorm met inhoud?

Te midden van de euforie rond conversatiesystemen vormt De Illusie van Denken een uitdaging. En hoewel het de discussie niet beëindigt, stelt het wel een van de meest herhaalde fantasieën van dit moment ter discussie: dat machines eindelijk beginnen te denken.

Clarin

Clarin

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow